جستجوی اوپنایآی برای انتخاب رئیس جدید بخش آمادگی

شرکت OpenAI به دنبال جذب یک مدیر اجرایی جدید است که مسئولیت بررسی خطرات نوظهور مربوط به هوش مصنوعی در حوزههایی از جمله امنیت رایانه و سلامت روان را برعهده بگیرد.
مدیرعامل OpenAI، سم آلتمن، در مطلبی که در شبکه اجتماعی ایکس منتشر کرد، اذعان داشت که مدلهای هوش مصنوعی «تاکنون برخی چالشهای واقعی ایجاد کردهاند»، از جمله «تأثیرات بالقوه مدلها بر سلامت روان» و همچنین مدلهایی که «آنقدر در حوزه امنیت رایانهای پیشرفته شدهاند که شروع به شناسایی آسیبپذیریهای حیاتی کردهاند».
آلتمن نوشت: «اگر تمایل دارید به جهان کمک کنید تا دریابد چگونه میتوان مدافعان امنیت سایبری را با توانمندیهای پیشرفته تقویت کرد و همزمان مطمئن شد مهاجمان نمیتوانند از این قابلیتها برای آسیبرساندن استفاده کنند، به خصوص با ایمنسازی هرچه بیشتر تمامی سیستمها، و همچنین درباره نحوه انتشار قابلیتهای زیستی و اطمینان از امنیت سیستمهایی که میتوانند به صورت خودکار بهبود یابند، لطفاً درباره ارسال درخواست همکاری فکر کنید.»
در توضیحات شغلی جایگاه «مدیر آمادگی» در OpenAI آمده است که این شغل مسئول اجرای چارچوب آمادگی شرکت است، یعنی «چارچوبی که رویکرد OpenAI را به رصد و آمادگی برای قابلیتهای مرزی که خطراتی از جنس آسیب بزرگ ایجاد میکنند، شرح میدهد».
این شرکت برای اولین بار در سال ۱۴۰۲ اعلام کرد که تیم آمادگی را ایجاد میکند و گفت این تیم مسئول بررسی خطرات بالقوه «فاجعهآمیز» است، چه این خطرات نزدیک باشند، مانند حملات فیشینگ، یا ریشه در آیندهای دور و فرضی داشته باشند، مانند تهدیدات هستهای.
کمتر از یک سال پس از آن، OpenAI مدیر آمادگی، الکساندر مدری، را به موقعیتی با تمرکز بر استدلال هوش مصنوعی منتقل کرد. سایر مدیران بخش ایمنی نیز شرکت را ترک کردند یا در خارج از حوزه آمادگی و ایمنی عهدهدار نقشهای جدید شدهاند.
همچنین این شرکت اخیراً چارچوب آمادگی خود را بهروزرسانی کرده و اعلام نموده است که ممکن است «الزامات ایمنی» خود را در صورتی که یک آزمایشگاه هوش مصنوعی رقیب یک مدل «پرریسک» را بدون محافظتهای مشابه ارائه کند، «تنظیم» کند.
همانطور که آلتمن در پست خود اشاره کرد، رباتهای هوش مصنوعی مولد با توجه فزایندهای نسبت به تأثیر آنها بر سلامت روان روبرو شدهاند. اخیراً شکایاتی مطرح شده است که ادعا میکنند چتبات ChatGPT شرکت OpenAI توهمات کاربران را تشدید کرده، انزوای اجتماعی آنها را افزایش داده و حتی منجر به اقدام به خودکشی در برخی موارد شده است. (این شرکت اعلام کرده که به تلاش برای بهبود توانایی ChatGPT در شناسایی نشانههای پریشانی عاطفی و ارجاع کاربران به حمایتهای واقعی ادامه میدهد.)



